L’intelligence artificielle ou IA est sans conteste une technologie qui va bouleverser tous les secteurs et celui de la santé n’est pas en reste. Elle peut aider à améliorer les diagnostics médicaux, les opérations chirurgicales, personnaliser les traitements, ou même mettre au point de nouvelles molécules et des vaccins. Comme l’explique le chercheur Boussad Addad dans son livre paru chez VA Editions, “La face cachée de l’intelligence artificielle ”, l’IA présente également des risques très importants qu’il ne faut surtout pas prendre à la légère, surtout dans ce domaine. Au-delà du risque habituel qui concerne la fuite des données médicales par suite d’une cyberattaque, chose déjà arrivée par exemple à Singapour pour les dossiers médicaux de 14 000 personnes séropositives, il y en a d’autres, inhérents à l’IA. Une attaque pourrait avoir comme fin de remplacer une base de données médicale par une autre afin de fausser l’apprentissage des algorithmes. C’est ce qu’on appelle “empoisonnement des données”. Mr Addad avertit qu’un acte malveillant de ce type est tout à fait possible dans le but de diagnostiquer, à tort naturellement, une maladie donnée afin de vendre un remède quelconque ou au contraire de dénigrer un autre. Les algorithmes d’IA sont sujets à d’autres attaques qu’on appelle “évasion de modèle” ou “exemples adversaires”. Ça consiste à modifier, légèrement de préférence, une donnée pour tromper un modèle IA déjà déployé. Pour l’image par exemple, il s’agit de modifier l’intensité de certains pixels afin que l’algorithme IA reconnaisse un chat par exemple au lieu d’un chien. Sur une radio thoracique, l’objectif serait de faire croire faussement à la présence d’une maladie malgré la prise d’un certain médicament, pour dénigrer ce dernier en montrant qu’il est inefficace.
Ceci fait penser naturellement au scandale du LancetGate où une firme inconnue auparavant, une certaine Surgisphere, se présentant comme spécialisée en IA, a manipulé des données médicales pour faire croire à la non-efficacité contre le Covid19, et même à la nocivité, d’un médicament, en l’occurrence l’hydroxychloroquine, administré pourtant depuis des dizaines d’années. L’étude de Surgisphere publiée dans la prestigieuse revue The Lancet a fini par être retirée après la découverte de la fraude. Si des gens bien alertes et des professeurs ont pointé rapidement la supercherie, car la manipulation des données a été très flagrante, une attaque de type empoisonnement de données ou évasion de modèles serait autrement plus difficile à déceler. Ceci nous amène à la conclusion que nous devons réfléchir à deux fois sur le stockage des données de santés des citoyens. Avoir confié le Health Data Hub à l’américain Microsoft, avec un Cloud Act qui permet à l’Oncle Sam d’avoir accès à toutes les données des GAFAM, est un acte pour le moins incompréhensible. Enfin, Mr Addad pointe dans son livre le risque que ces données tombent entre les mains des assurances, lesquelles pourraient purement et simplement refuser d’assurer des patients fragiles. C’est d’ailleurs ce qui semble se dessiner, car Google vient de se lancer dans le domaine des assurances en créant la filiale Coefficient Insurance. On ne pourra pas dire qu’on n’a pas été averti…